经典译文:计算机器与智能(图灵)

艾伦·M·图灵 (Alan M. Turing)

(《心智》,第 LIX 卷,第 236 号,1950 年 10 月)

Translated by Google Gemini

计算机器与智能

1. 模仿游戏 (The Imitation Game)

我提议思考这样一个问题:“机器能够思维吗?”要回答这个问题,我们首先需要定义“机器”和“思维”这两个词的含义。定义的框架应该尽可能地反映这些词语的通常用法,但这种做法是危险的。如果我们根据这些词语的通常用法来寻找其含义,那么就很难摆脱这样的结论:这些词语的含义以及“机器能够思维吗?”这个问题的答案,应该通过盖洛普民意测验之类的统计调查来获得。 但这显然是荒谬的。与其试图给出这样的定义,我建议用另一个问题来取代原来的问题,这个问题与原问题紧密相关,并且用相对明确的词语来表述。

这个新问题的形式可以用一种我们称之为“模仿游戏”的游戏来描述。 游戏由三个人参与:

游戏的目标是让提问者判断出另外两个人中,哪一个是男人,哪一个是女人。

他通过标签 X 和 Y 来称呼他们,在游戏结束时,他要么说“X 是 A,Y 是 B”,要么说“X 是 B,Y 是 A”。 提问者可以向 A 和 B 提出问题,例如:

C:“X,请告诉我你头发的长度?”

现在假设 X 实际上是 A,那么 A 必须回答。A 在游戏中的目标是努力使 C 做出错误的判断。因此他的回答可能是:

“我的头发是齐肩短发,最长的一绺大约九英寸长。”

为了不让声音的语调帮助提问者,答案最好以书面形式给出;或者,如果更好,可以通过打字机传递。 理想的安排是通过一台远程打字机进行交流。 或者,问题和答案可以由一个中间人重复。对于游戏中的第三位参与者(B),她的任务是帮助提问者。 // 信息對接 對 非接口 的 屏蔽

她能给出的最佳策略可能就是给出真实的答案。她可以在她的答案中加入诸如“我是女人,别听他的!”之类的话,但这并不能起到什么作用,因为男人也可以做出类似的评论。

我们现在提出这样一个问题: “如果机器在这场游戏中扮演 A 的角色,会发生什么情况?” 当游戏以这种方式进行时,提问者判断错误的频率是否与男人和女人之间进行游戏时一样? 这些问题取代了我们最初的问题:“机器能够思维吗?”`

// 機器能思維嗎

2. 对新问题的批判 (Critique of the New Problem)

人们可能会问:“新问题的答案是什么?” 而不是 “这个新问题是什么?” 这个问题只有在我们明确了“机器”这个词在新问题中的含义之后才能得到恰当的回答。 // 機器 的定義 人们普遍希望,只要我们允许机器在其构造中使用任何类型的工程技术,机器就能够很好地玩“模仿游戏”。 我们也希望排除那些以非传统方式出生的人类。很难对这些条件进行更精确的界定。 例如,人们可能会坚持要求参与游戏的团队(比如工程师团队)都是同一性别,但这可能并不真正令人满意,因为通过从一个男人身上获取皮肤来制造一台会思考的机器很可能是可能的。但这样做将是生物技术的一项值得最高赞扬的壮举,但我们不会倾向于将其视为“建造一台会思考的机器”的案例。这就促使我们放弃允许使用所有技术的规定。我们更倾向于允许所有数字计算机都参与游戏。

这种限制乍看起来似乎非常极端。我将尝试说明情况并非如此。当然,这意味着我们需要简要地解释数字计算机的性质和特性。

人们可能还会说,这种用“模仿游戏”来替代“机器能思考吗?”的做法是不公平的,因为它对机器的能力设置了太高的标准。如果一个人试图通过模仿游戏来判断自己是否真的能理解法语,那么他肯定会被认为是一个傻瓜。一个头脑迟钝的人可能会因为他知道如何做一些比任何机器都复杂的事情而被认为是聪明的,但这并不能证明他比机器更聪明。这种反对意见非常强烈,但至少我们可以说,如果尽管如此,我们仍然可以制造出一台能够令人满意地玩模仿游戏地机器,那么我们就不必为这种反对意见所困扰。

有人可能会认为,在模仿游戏中,机器的最佳策略可能是做一些除了回答问题之外的其他事情。例如,它可以故意拖延,或者在回答中引入一些拼写错误,以便更好地模仿人类。这些都不是理想的策略,因为提问者可以简单地要求机器重复答案,如果答案不一致,那么机器就会暴露。

游戏可能会因为对机器过于不利而受到批评。如果男人试图假装成机器,他显然会表现得很差。他会因为回答问题的缓慢和不准确而立即暴露。那么机器假装成人类不也一样困难吗?这种反对意见似乎并没有多大分量。我的意思是,如果机器真的能够令人满意地玩模仿游戏,那么这种反对意见就没有什么意义了。

3. 游戏中的机器 (The Machines Concerned in the Game)

我们提出的问题“机器能够思维吗?”只有在我们明确了“机器”这个词的含义之后才能得到讨论。 我们自然希望允许在我们考虑的机器中使用任何类型的工程技术。我们也希望排除那些以非传统方式出生的人类。很难对这些条件进行更精确的界定。例如,人们可能会坚持要求参与游戏的团队(比如工程师团队)都是同一性别,但这可能并不真正令人满意,因为通过从一个男人身上获取皮肤来制造一台会思考的机器很可能是可能的。但这样做将是生物技术的一项值得最高赞扬的壮举,但我们不会倾向于将其视为“建造一台会思考的机器”的案例。这就促使我们放弃允许使用所有技术的规定。我们更倾向于允许所有数字计算机都参与游戏。

这种限制乍看起来似乎非常极端。我将尝试说明情况并非如此。当然,这意味着我们需要简要地解释数字计算机的性质和特性。

根据定义,数字计算机是指那些能够执行任何人类计算机可以执行的操作的机器。人类计算机应该遵循固定的规则;他无权以任何细节偏离这些规则。我们可以假设这些规则写在一本书里,每当他被分配到一项新工作时,这本书就会被更改。他还有无限量的纸张供他进行计算。他也可以用他的头脑进行一些计算。

如果我们要让一台机器模仿人类计算机在某些复杂操作中的行为,我们就必须问他是如何做的,然后将答案翻译成指令表的形式。构建这样的指令表通常被称为“编程”。为一台机器编程,使其能够执行操作 A,意味着将适当的指令表放入机器中,以便它能够执行 A。

数字计算机通常可以被看作由三个部分组成:

存储器是信息的存储库,对应于人类计算机的纸张,无论是他进行计算的纸张,还是印有他的规则书的纸张。只要人类计算机用他的头脑进行计算,存储器的一部分就对应于他的记忆。

执行单元是执行计算中涉及的各种单个操作的部分。这些单个操作会因机器而异。通常,可以执行相当长的操作,例如“将 3540675445 乘以 7076345687”,但有些机器只能执行诸如“写下 0”之类的非常简单的操作。

我们已经提到,提供给计算机的“规则书”在机器中被存储器的一部分所取代。它被称为“指令表”。控制器的职责是确保这些指令被正确地、按正确的顺序执行。控制器的构造方式使得这是不可避免的。

存储器中的信息通常被分解成大小适中的数据包。例如,在一台机器中,一个数据包可能包含十个十进制数字。数字被分配到存储器的各个部分,这些部分以系统的方式编号。一个典型的指令可能是:

“将存储在位置 6809 的数字加到存储在位置 4302 的数字上,并将结果存回后一个存储位置。”

不用说,机器中发生的并不是用墨水在纸上写下这条指令。它更可能被编码成某种形式,例如 6809430217。这里的 17 表示对这两个数字执行哪种操作。在这种情况下,操作是上面描述的那个,即“将……加到……”。请注意,该指令占用了存储器中 10 个数字的一个数据包,这非常方便。控制器通常会按顺序从存储器中获取要执行的指令,除非遇到这样的指令:“现在执行存储在位置 5606 的指令,并从那里继续。”或者:“如果位置 4505 包含 0,则执行存储在 6707 的下一条指令,否则继续。”

这种后一种类型的指令非常重要,因为它使得可以重复执行一系列操作,直到满足某个条件为止,但这样做的时候,每次重复都不是执行新的指令,而是再次执行相同的指令。打个比方,假设妈妈想让汤米每天上学都路过鞋匠铺,看看她的鞋子是否修好了。妈妈可以每天早上都告诉他,当他离开家去上学时,重复这个请求。或者,她可以在门厅里贴一张纸条,汤米每次出门时都会看到,上面写着:“去鞋匠铺看看我的鞋子。”然后当他拿到鞋子时,他会撕掉这张纸条。

读者必须接受数字计算机可以并且确实是按照我们所描述的原理建造的。而且它们实际上可以模仿任何人类计算机的行为。

上面描述的人类计算机所使用的规则书当然是一本虚构的书。真正的人类计算机确实会记住他们必须做什么。如果有人想让一台机器模仿人类计算机在某些复杂操作中的行为,就必须问他是如何做的,然后将答案翻译成指令表的形式。构建这样的指令表通常被称为“编程”。为一台机器编程,使其能够执行操作 A,意味着将适当的指令表放入机器中,以便它能够执行 A。

数字计算机的一个有趣的变体是具有随机元素的数字计算机。这些计算机在某些选择点上有指令,涉及掷骰子或某些等效的电子过程;例如,其中一条指令可能是“掷骰子并将得到的数字存储到存储位置 1000 中”。有时这样的机器被描述为具有自由意志(尽管我自己不会使用这个短语)。通常无法通过观察来判断一台机器是否有随机元素,因为类似的效果可以通过根据 π 的小数位进行选择来产生。

迄今为止建造的大多数数字计算机都是相当相似的。造成这种相似性的原因是,在大多数情况下,建造者都希望机器能够执行非常广泛的操作。因此,它们被构建为通用机器。当然,这并不意味着不能建造专门用于某些特定任务的机器。例如,可以建造一台只能玩模仿游戏的机器。但是,如果有人想建造一台专门用于特定任务的机器,他会发现,最简单的方法是首先建造一台通用机器,然后用适当的程序对其进行编程。例如,如果我们要建造一台专门用于玩井字游戏的机器,我们可以使用通用机器,并通过适当的程序对其进行编程。

数字计算机概念的这一事实——它们都可以模仿任何其他数字计算机的行为(当然,存储容量和速度除外)——意味着,在讨论它们是否能玩模仿游戏时,我们不需要考虑所有不同类型的数字计算机。我们可以只考虑其中一种。事实上,我们可以假设我们正在讨论的是一台具有无限存储容量的机器。

4. 数字计算机的普遍性 (Universality of Digital Computers)

在上一节中讨论的数字计算机可以归类为“离散状态机”。这些机器从一个明确定义的状态跳到另一个明确定义的状态。这些状态足够不同,以至于可以忽略它们之间的混淆可能性。严格来说,不存在这样的机器。一切实际上都是连续运动的。但是有很多种机器可以被 profitably 地认为是离散状态机。例如,在考虑照明系统的开关时,将它们视为只有开和关两种状态是方便的。显然,它们之间存在中间位置,但在大多数情况下我们可以忽略它们。作为离散状态机的例子,我们可以考虑一个轮子,它每秒钟咔哒一声转过 120°,但如果被杠杆操作,它可以停在一个不确定的位置。然而,我们可以把后者看作是一种特殊的“静止”状态,从而避免这种复杂性。

只要具有足够大的存储容量,数字计算机就可以被证明能够模拟任何离散状态机。因此,关于“机器能做什么?”以及“(任何一种)计算机能做什么?”的问题是等价的,只要我们只限于离散状态机。因此,我们不必担心在讨论这个问题时是否使用了“数字计算机”这个词。

“离散状态机”这个类别当然包括了我们上面描述的数字计算机。但是,它也包括了许多其他类型的机器。例如,可以构造一台机器,它用一个简单的规则来确定写在无限长的纸带上的 0 和 1 序列中的下一个符号是什么。假设规则是:如果前一个符号是 0,则写下 1;如果前一个符号是 1,则写下 0。这样的机器就是一台离散状态机。

只要我们只限于离散状态机,数字计算机就可以被证明能够模拟任何离散状态机。因此,关于“机器能做什么?”以及“(任何一种)计算机能做什么?”的问题是等价的,只要我们只限于离散状态机。因此,我们不必担心在讨论这个问题时是否使用了“数字计算机”这个词。

我们可以看到,上面描述的数字计算机属于“离散状态机”这一类。但是这类机器的例子种类繁多。例如,可以构造一台机器,它用一个简单的规则来确定写在无限长的纸带上的 0 和 1 序列中的下一个符号是什么。假设规则是:如果前一个符号是 0,则写下 1;如果前一个符号是 1,则写下 0。这样的机器就是一台离散状态机。

只要我们只限于离散状态机,数字计算机就可以被证明能够模拟任何离散状态机。因此,关于“机器能做什么?”以及“(任何一种)计算机能做什么?”的问题是等价的,只要我们只限于离散状态机。因此,我们不必担心在讨论这个问题时是否使用了“数字计算机”这个词。

我们可以看到,上面描述的数字计算机属于“离散状态机”这一类。但是这类机器的例子种类繁多。例如,可以构造一台机器,它用一个简单的规则来确定写在无限长的纸带上的 0 和 1 序列中的下一个符号是什么。假设规则是:如果前一个符号是 0,则写下 1;如果前一个符号是 1,则写下 0。这样的机器就是一台离散状态机。

只要我们只限于离散状态机,数字计算机就可以被证明能够模拟任何离散状态机。因此,关于“机器能做什么?”以及“(任何一种)计算机能做什么?”的问题是等价的,只要我们只限于离散状态机。因此,我们不必担心在讨论这个问题时是否使用了“数字计算机”这个词。

上面对数字计算机的描述或许可以称为它们的理论描述。我们现在将简要介绍一下实际的机器。

查尔斯·巴贝奇 (Charles Babbage) 在 1822 年至 1833 年间设计并部分建造的差分机 (Difference Engine) 和分析机 (Analytical Engine) 是最早的数字计算机。这两台机器都是纯机械的,而且都是为特定的计算而设计的。分析机是第一台通用数字计算机。巴贝奇的分析机在当时的技术条件下无法完成,但它包含了现代数字计算机的所有基本思想。特别是,它有:

在相当近的将来,我们可以预料到“纸张”将主要被磁带、磁盘或鼓所取代。

数字计算机的存储器大致相当于人类计算机的纸张。它必须能够存储信息,并在需要时将信息提供给执行单元。

我们提到,提供给计算机的“规则书”在机器中被存储器的一部分所取代。它被称为“指令表”。控制器的职责是确保这些指令被正确地、按正确的顺序执行。控制器的构造方式使得这是不可避免的。

数字计算机的思想可以追溯到查尔斯·巴贝奇的分析机(1833 年)。这台机器完全是机械的。事实上,所有早期的数字计算机都是机械的或机电的。第一台电子数字计算机 ENIAC(电子数字积分器和计算机)于 1946 年在宾夕法尼亚大学建成。

数字计算机与模拟计算机不同。模拟计算机通过测量物理量(例如电压)来表示数字。

我们将数字计算机的特性总结如下。它由存储器、执行单元和控制器组成。存储器存储数字。这些数字可以被解释为数据或指令。在任何特定时刻,机器都处于一种状态,该状态由其存储器中的数字以及它正在执行的指令所决定。机器从一种状态转变到另一种状态,具体取决于它正在执行的指令。指令通常是按顺序从存储器中提取的,但有时指令会指定从其他地方提取下一条指令。

这些机器的特殊之处在于,在给定的存储容量下,它们可以模拟任何其他数字计算机的行为。因此,在讨论数字计算机的能力时,我们不必考虑所有不同类型的机器,而可以只考虑一种特定的机器。

5. 与我们问题相反的观点 (Contrary Views on the Main Question)

现在,我们可以开始考虑我们最初的问题:“机器能够思维吗?” 以及与之等价的模仿游戏问题。我们将放弃进一步讨论“机器”和“思维”的定义,而是利用模仿游戏作为我们的标准。如果我们能够证明存在一台能够令人满意地玩模仿游戏的机器,那么我们就应该准备好承认这样的机器能够思维。

现在我将给出一些与我的观点相反的论点。

(1) 神学上的反对意见 (The Theological Objection)

思维是人不朽灵魂的一种功能。上帝赋予了男人和女人不朽的灵魂,但没有赋予其他动物或机器。因此,任何动物或机器都不能思维。

我无法接受这种观点的任何部分,除非可能是最后一句。我认为它试图基于神学事实来论证,而这些事实本身就值得怀疑。无论如何,每当有人试图从神学论证中得出科学结论时,我们都应该保持警惕。我相信,无论我们如何定义思维,我们都不能否认上帝有能力将灵魂赋予机器,就像他赋予大象灵魂一样容易(如果他认为合适的话)。因此,这种论点似乎无法反驳。然而,它可能会让那些持有这种神学观点的人感到担忧。在这种情况下,他们可能更愿意相信上帝的意愿是,他不允许灵魂与机器结合。

为了进一步讨论这个问题,我建议我们暂时放弃神学论点,并继续考虑其他论点。

(2) “鸵鸟心态”的反对意见 (The 'Heads in the Sand' Objection)

“机器思维的后果太可怕了。让我们希望并相信它们不能这样做。”

这种论点很少像上面那样直白地表达出来。但它影响了我们许多人的思维方式。我们喜欢相信人类在某种程度上优于其他造物。如果能够证明人类必然是优越的,那就更好了,因为那样就没有失去地位的危险了。这种神学论点的流行显然与这种感觉有关。这种观点在知识分子中可能比在普通人中更强烈,因为他们更看重思维能力,并且更倾向于根据这种能力来判断自己。

我不认为这种论点需要反驳。安慰可能更合适:也许这应该被视为对超人类主义的慰藉。

(3) 来自各种官能障碍的论点 (Arguments from Various Disabilities)

这些论点采取以下形式:“我保证你能造出一台机器来做 X,但你永远造不出一台机器来做 Y。” 提出了许多这样的 Y。我列举如下:

友善、足智多谋、美丽、友好(第 447 页)、有主动性、有幽默感、能辨别是非、会犯错(第 447 页)、会坠入爱河、喜欢草莓和奶油(第 447 页)、能让某人爱上它、能从经验中学习(见下文第 456f 页)、能恰当地使用词语、能成为自己思想的主体(第 457 页)、能像人一样具有多样化的行为、能做一些真正新颖的事情(第 457 页)。(大多数这些官能障碍在洛夫莱斯夫人的反对意见中都有讨论。)

通常对这些说法不提供支持。我相信它们大多基于科学归纳的原则。一个人在一生中见过成千上万台机器。他从他所看到的得出一些一般性的结论。它们是丑陋的,每一个都是为非常有限的目的而设计的,当用于略有不同的目的时,它们是无用的,任何一台机器的行为变化都非常小,等等,等等。自然地,他得出结论,这些是一般机器的必要属性。其中许多限制与大多数数字计算机的存储容量非常小有关。(我假设“存储容量”这个想法以某种方式扩展到非数字机器上。目前这并不重要,因为我们这里只考虑数字计算机的官能障碍。)几年前,当数字计算机的话题还很少被提及的时候,如果你提到它们的特性而没有描述它们的构造,你很可能会被认为是在胡说八道。我想,同样地,如果你在没有提到建造方法的情况下谈论它们的构造,你也会被认为是在胡说八道。也就是说,如果你提出的方法不是很大程度上是实验性的。

毫无疑问,这里引用的许多官能障碍都是由于对机器构造缺乏了解造成的。例如,关于喜欢草莓和奶油的机器。这种机器可以通过让它遵循以下规则来制造:如果给它一个草莓,它就会回答“是的,请”,如果给它其他东西,它就会回答“不,谢谢”。当然,这并不意味着机器真的喜欢草莓和奶油。喜欢某物意味着更多。但我想指出的是,这里并没有声称机器可以拥有所有这些属性。仅仅因为它们中的任何一个都可以被认为是思维的标志,而我们不能(至少现在)建造一台机器来拥有所有这些属性,这并不能证明机器不能思维。

对这些官能障碍论点的批评围绕着我们无法在机器中构建我们通常与思维相关的某些行为这一事实展开。但这些论点通常没有考虑到,仅仅因为我们目前无法制造具有这些行为的机器,并不意味着它们原则上是不可能的。

声称机器不能犯错的说法似乎是一个奇怪的说法。人们可能会反驳说:“机器会犯错吗?它们不是完美的吗?” 我认为,这种混淆是由于对“错误”一词的两种不同用法造成的。我们称之为“功能错误”的是由某些机械或电气故障引起的,导致机器不按其设计的方式运行。在哲学讨论中,我们更喜欢忽略这种错误的可能性;因此,我们正在讨论的是“抽象机器”。这些抽象机器是数学虚构而不是物理对象。根据定义,它们不可能犯功能错误。从这个意义上讲,我们可以真正地说“机器永远不会犯错”。当我们讨论“思维机器”的可能性时,“结论错误”似乎更相关。这些错误是由于在形成结论的过程中出现了一些缺陷造成的。例如,在算术中,我们可能会犯一个“结论错误”,如果我们说 2 + 2 = 5。

声称机器不能成为其自身思想的主体似乎也可以通过表明机器只能对其自身程序中的某些事实做出反应来回答。例如,通过检查自身的行为来修改自身的程序。这只有在程序包含某种目的的情况下才有可能,而这反过来又意味着机器必须有某种形式的意识。只有当机器有意识时,它才能成为其自身思想的主体。

对这些官能障碍的许多批评通常都围绕着意识的形式。一个男人,一个女人,一个孩子,一只动物,一台机器。这些都是不同的。但是,当我们问“机器能思维吗?”时,我们似乎希望机器模仿人类的思维,或者至少是某种形式的思维,而不仅仅是某种行为。

(4) 洛夫莱斯夫人的反对意见 (Lady Lovelace's Objection)

关于巴贝奇的分析机最详细的信息来自洛夫莱斯伯爵夫人阿达·拜伦 (Ada Byron, Countess of Lovelace) 的回忆录。她在回忆录中指出:“分析机没有任何创造任何东西的企图。它可以做我们知道如何命令它去执行的任何事情。”(洛夫莱斯,1842 年)哈特里 (Hartree, 1949) 引用了这句话,并补充说:“这并不意味着不可能构造出可以‘独立思考’的电子设备,或者用生物学的术语来说,在其中可以建立条件反射,从而作为学习的基础。这是否可能在原则上发生,是一个重要而有趣的问题,但当时的机器没有这些特性。”

我完全同意哈特里的观点。请注意,他并没有断言所讨论的机器没有这些特性,而是当时的机器没有这些特性。然而,洛夫莱斯夫人的反对意见并没有说机器不能“独立思考”,而是说它们不能“创造任何东西”。这可以解释为机器永远不能做任何“真正新颖的”事情。这种观点有时会以“机器永远不能让我们吃惊”的形式出现。这种说法是一个更直接的挑战,可以用多种方式来反驳。

机器经常让我吃惊。这主要是因为我对它们能做什么的计算做得不够充分,或者是因为即使我做了计算,我也做得草率、冒险,冒着犯错误的风险。也许我会对自己说:“我认为这里的电压应该是这样那样的;无论如何,让我们假设它是这样。” 自然地,我经常会出错,结果对我来说就是一次惊喜,因为到实验完成时,这些假设已经被忘记了。这些承认让我为我犯下的错误承担了责任。通过承认这一点,我可以更好地为自己辩护,免受因我对惊喜的体验而产生的任何怀疑。

这并不意味着,一旦机器的惊喜价值耗尽,它就不再令人印象深刻了。相反,当一台机器最终能够完成一些真正令人惊讶的事情时,它会更加令人印象深刻。

我认为洛夫莱斯夫人的反对意见包含了一个谬误,即假设如果一个事物的结果具有某种属性,那么这个事物本身也必须具有该属性。我们不必期望一台机器本身具有惊喜的特性,才能让我们感到惊喜。事实上,一台让我们感到惊喜的机器可能恰恰是因为它的行为与我们的预期相反。

与洛夫莱斯夫人的反对意见密切相关的是这样一种观点,即机器“永远不能做任何真正新颖的事情”。这显然取决于我们对“新颖”的定义。人们可能会争辩说,太阳底下没有新鲜事,因此机器也无法创造任何新鲜事。或者,人们可能会认为,如果某件事可以被解释为先前已知事实的逻辑推论,那么它就不是新颖的。按照这种观点,由于所有机器的操作都是根据逻辑规则进行的,因此它们永远无法产生任何新颖的东西。

另一种观点,也是我认为更合理的观点是,一项工作的新颖性在于它与先前已知工作的差异程度。从这个意义上讲,机器当然可以做新颖的事情。事实上,它们可以做一些人类可能永远也想不到的事情。例如,一台机器可能会发现一个新的数学定理,或者创作一首新的乐曲。

(5) 来自意识的论点 (Argument from Consciousness)

这个论点在杰弗逊 (Jefferson) 教授 1949 年的李斯特演说 (Lister Oration) 中得到了很好的表达,我引用如下:“除非一台机器能够因为思想和情感而写出一首十四行诗或创作一首协奏曲,而不是因为符号的偶然掉落,否则我们无法同意机器等同于大脑——也就是说,它不仅能写出来,而且知道它写了什么。任何机制都无法感受到(不仅仅是人为地发出信号,这是一个简单的设计)快乐于它的成功,悲伤于它的保险丝烧断,被奉承而温暖,因错误而痛苦,被性所吸引,生气或沮丧于它几乎无法得到它想要的东西。”

这个论点对我们测试的有效性提出了质疑。根据这种观点,要知道一台机器是否在思考,唯一的方法就是成为那台机器并感受自己的思维。然后人们可以向世界描述这些感受,但这当然不会让任何人满意。同样,根据这种观点,要知道一个人是否在思考,唯一的方法就是成为那个人。这实际上是唯我论的观点。这可能是最合乎逻辑的观点,但它使得思想交流变得困难。A 相信“A 思维但 B 不思维”,而 B 相信“B 思维但 A 不思维”。我们没有必要为这种争论而烦恼,而是通常会礼貌地假设每个人都在思考。

我确信杰弗逊教授不希望采取极端和唯我论的观点。他很可能愿意接受模仿游戏作为测试。模仿游戏(省略了玩家 B)经常在口试中使用,以发现某人是否真正理解某事,或者只是“鹦鹉学舌”。让我们听听这样一个口试的一部分:

提问者:在你的十四行诗的第一行,你写道“我将把你比作夏日的一天”,如果说“春日的一天”会不会更好或者同样好?

见证人:那样就不符合韵律了。

提问者:说“冬日的一天”怎么样?那样也符合韵律。

见证人:是的,但是没有人想被比作冬日的一天。

提问者:你会说匹克威克先生让你想起了圣诞节吗?

见证人:在某种程度上。

提问者:然而圣诞节是冬日的一天,我不认为匹克威克先生会介意这个比较。

见证人:我不认为你在开玩笑。将匹克威克先生与冬日的一天进行比较是严肃的,而将我与冬日的一天进行比较则不是。

等等。如果写十四行诗的机器能够在口试中像这样回答,那么杰弗逊教授还会认为它只是“人为地发出信号”吗?我不知道他会怎么说,但我认为他不会再把机器仅仅描述为“一堆容易设计的符号”。

在我看来,意识问题是一个难以捉摸的问题,但它与我们正在考虑的问题并没有真正的联系。

(6) 来自连续性的神经系统的论点 (Argument from Continuity in the Nervous System)

神经系统肯定不是离散状态机。神经元中脉冲大小的微小误差可能会对输出脉冲的大小产生很大的影响。因此,人们可能会争辩说,不可能期望用离散状态系统来模仿神经系统的行为。

的确,离散状态机与连续机器不同。但是,如果我们遵守模仿游戏的条件,提问者将无法利用这种差异。如果我们考虑一些其他的更简单的连续机器,情况就会很清楚。微分分析器就是一个很好的例子。 (微分分析器是一种用于某些类型计算的模拟计算机。)其中一些提供了答案的打印输出,因此适合参与游戏。数字计算机不可能预测微分分析器对一个问题会给出什么答案,但是它完全能够给出正确类型的答案。例如,如果被要求给出 π 的值(实际上大约是 3.1416),那么通过在 3.12、3.13、3.14、3.15、3.16 之间随机选择数字,并在选择时略微倾向于例如 3.12 或 3.14 而不是其他数字,这将是合理的。

(7) 行为非形式性的论点 (The Argument from Informality of Behaviour)

不可能产生一套规则来描述一个人在每一种可以想象的情况下应该做什么。例如,我们可能有这样的规则:当看到红色交通信号灯时停下来,当看到绿色交通信号灯时通过,但是如果由于某种故障,红绿灯同时亮起,该怎么办?人们可能会决定,最安全的做法是停下来。但是这种情况以后可能会产生进一步的困难。试图提供在所有可能情况下都规定行为的规则,即使是交通信号灯的规则,似乎也是不可能的。我对这一点表示同意。

由此可以得出结论,我们不能成为机器。我将尝试重现这个论点,但我担心我可能做得不公正。它似乎是这样的:“如果每个人都有一套明确的行为规则来规范他的生活,那么他的行为就不会比机器更好。但不存在这样的规则,所以人不能是机器。” 这里的未被表达的大前提是不准确的。我不认为从一个人有一套明确的行为规则可以推出他的行为与机器一样(只要机器被理解为离散状态机)。然而,通过用“行为法则”代替“行为规则”,这个论点更有说服力。我的意思是,行为法则是支配一个人身体的自然法则,例如“如果你捏他,他就会叫喊”。另一方面,行为规则是人可以遵守但也可以不遵守的规则,例如“过马路前左右看”。

如果我们用“行为法则”来代替“行为规则”,那么这个论点就变成了:“如果人类受行为法则的支配,那么他们的行为就不会比机器更好。但不存在这样的行为法则来支配人类的行为,所以人不能是机器。” 这里的大前提似乎是正确的,但小前提是错误的。例如,我们知道神经系统是如何工作的,并且知道如果我们给它足够强的电击,它就会停止工作。这是一种行为法则。还有许多其他的。然而,我认为不可能找到一套完整的行为法则来预测一个人在所有情况下的行为。这是因为,即使我们知道所有相关的自然法则,我们也无法知道一个人在任何特定时刻所处的确切状态。

然而,我们不必如此绝望。假设我们能够找到一套完整的行为法则来支配人类的行为。那么我们就可以建造一台机器来模拟这种行为。这样的机器显然会通过模仿游戏。

(8) 超感官知觉的论点 (The Argument from Extra-Sensory Perception)

我假设读者熟悉超感官知觉 (ESP) 的概念及其四种表现形式,即心灵感应、千里眼、预知和意念致动。这些令人不安的现象似乎否认了我们通常的科学观念。如果我们承认它们,我们将多么需要相信它们!一旦承认了 ESP,那么统计证据,至少对于心灵感应来说,似乎是压倒性的。很难不相信 ESP 的存在。

这对我来说是一个强有力的论点。人们可以这样回答:“科学方法要求我们只接受那些可以重复的实验。ESP 实验不符合这个标准,因为它们通常在受控条件下无法重复。因此,我们不应该相信 ESP。” 这是一个相当舒适的回答,我相信许多科学家都乐于接受它。然而,它并没有真正解决问题。如果 ESP 是真实的,那么它将极大地影响我们对思维和意识的看法。

对于我们的模仿游戏,ESP 的存在可能会对测试产生影响。例如,如果提问者能够通过心灵感应与见证人交流,那么他可能会比仅仅通过提问更容易发现谁是机器。或者,如果见证人具有心灵感应能力,他可能会比没有心灵感应能力的见证人更好地猜测提问者想要什么样的答案。

简而言之,我认为如果允许心灵感应进入游戏,那么模仿游戏的可信度就会受到损害。因此,我建议在进行游戏时,应采取一切可能的预防措施,以防止心灵感应的发生。例如,房间可以用防心灵感应的屏障屏蔽起来。

6. 学习机器 (Learning Machines)

在我看来,迄今为止,还没有任何论点能够驳斥“机器能够思维”这一观点。当然,这并不意味着没有这样的论点。但至少,我认为目前还没有令人信服的论点。 在本文的前面部分,我声称模仿游戏可以用来取代“机器能够思维吗?”这个问题。我也讨论了对这个替代方案的一些反对意见。我现在将回到这个问题,并尝试给出我对“机器能够思维吗?”这个问题的看法,或者更确切地说,是“机器能够玩模仿游戏吗?”这个问题的看法。

我认为,大约在五十年后,就有可能对存储容量约为 10^9 的计算机进行编程,使其能够很好地玩模仿游戏,以至于普通提问者在提问五分钟后,正确识别的几率不会超过 70%。最初的问题“机器能够思维吗?” 我认为意义太小,不值得讨论。尽管如此,我相信在本世纪末,词语的使用和受过教育的普遍观点将会发生如此大的变化,以至于人们将能够谈论机器思维而不会期望遭到反驳。我也相信,隐藏这种信念没有任何好处。流行的观点认为科学家总是从一个公认的事实进展到另一个公认的事实,从不受到任何未经证实的猜想的影响,这是完全错误的。只要明确指出哪些是经过证明的事实,哪些是猜想,就不会有任何害处。猜想非常重要,因为它们为研究指明了有用的方向。

我现在将考虑与我的观点相反的问题。似乎有两种主要类型。第一种是,如果机器要模仿人类的思维过程,那么它们必须具有与人类大脑相似的结构。第二种是,即使机器可以被编程来玩模仿游戏,这也不意味着它们真的在思考。

关于第一种反对意见,我认为它基于一种误解。我们并不是要制造一台与人类大脑完全一样的机器,无论是在结构上还是在功能上。我们只是想制造一台能够玩模仿游戏的机器。如果这台机器的内部工作方式与人类大脑完全不同,那也无关紧要。

关于第二种反对意见,我认为它也基于一种误解。模仿游戏的目的不是要证明机器真的在思考,而是要提供一个客观的标准来判断机器是否能够进行我们通常与思维相关的行为。如果一台机器能够令人满意地玩模仿游戏,那么我们就应该准备好承认它具有某种形式的智能。

现在让我们转向一个更具建设性的任务。我们怎样才能制造出一台能够玩模仿游戏的机器呢?

一种方法是尝试模仿成年人的思维。如果我们能够充分理解成年人思维的运作方式,那么我们就可以尝试将其编程到计算机中。然而,这是一个非常艰巨的任务。成年人的思维非常复杂,我们对它的了解还很不够。

另一种方法,也是我认为更有前途的方法,是尝试模仿儿童的思维。如果我们能够制造出一台能够像儿童一样学习的机器,那么我们或许可以“教育”这台机器,使其最终能够玩模仿游戏。 这个过程可以分为三个阶段:

(a) 儿童机器的初始程序。

(b) 教育过程。

(c) 对儿童机器进行测试,看看它在教育后能做什么。

儿童机器的程序应该相对简单。它应该包含一些基本的学习机制,以及与环境互动的方式。

教育过程将涉及向机器提供经验,并根据其行为给予奖励或惩罚。这个过程与教育人类儿童的过程非常相似。

我们不能期望在第一次尝试中就找到一个好的儿童机器。我们必须尝试许多不同的设计,并对它们进行实验。

我们可能希望机器最终能够与人类竞争所有纯粹的智力领域。但是从哪里开始最好呢?即使这是最终目标,从哪里开始也是一个难题。我们会选择一个非常抽象的活动,比如下棋吗?还是我们会选择一个更容易让我们了解现实世界感官印象的活动?

看来,最好的策略是为机器提供尽可能广泛的经验。它应该能够看到、听到和触摸物体。它也应该能够与人类互动。

我们只能预见到不远处的未来,但我们几乎看不到什么工作要做。

我们正在尝试制造一台能够从经验中学习的机器。为了做到这一点,我们必须为机器提供一种改变其自身程序的方法。一种方法是让机器能够修改其自身的指令。另一种方法是让机器能够生成新的指令。

一个重要的特征是学习机器的教师通常对其内部发生的事情知之甚少。他仍然能够教它。这与我们教孩子的方式非常相似。我们通常不知道孩子大脑中发生了什么,但我们仍然能够教他们。

我们建议,与其尝试制造一个模拟成人思维的程序,不如尝试制造一个模拟儿童思维的程序。如果这个程序随后受到适当的教育过程,我们就会获得一个成人大脑。大概儿童的大脑就像刚从文具店买来的笔记本:几乎没有机制,而且有很多空白页。(机制和书写在我们看来几乎是同义词。)我们希望儿童大脑中的机制相对较少,这样就更容易编程。

因此,我们将问题分为两个部分。儿童程序和教育过程。这两者仍然密切相关。我们不能期望找到一个好的儿童机器而不考虑它将受到的教育。

我们已经说过,儿童机器应该尽可能简单。这意味着我们不应该试图在机器中内置太多复杂的机制。相反,我们应该专注于提供学习机制。

我们可以将儿童机器看作是由两部分组成的:

(i) 初始状态或“遗传”结构。

(ii) 一套规则,用于根据经验修改其状态。

遗传结构可以看作是机器的“本能”。它决定了机器在没有任何经验的情况下会做什么。修改规则决定了机器如何从经验中学习。

教育过程的目标是修改机器的状态,使其能够执行我们希望它执行的任务。

一个重要的问题是,我们应该如何评估学习机器的性能。一种方法是将其与人类儿童进行比较。我们可以看看机器在学习特定任务方面与人类儿童相比有多快。

另一种方法是看看机器在玩模仿游戏方面的表现如何。如果机器能够令人满意地玩模仿游戏,那么我们就可以说它已经学会了思考。

我们不应该期望学习机器能够立即达到高水平的性能。学习是一个渐进的过程。机器需要时间来积累经验并改进其行为。 我相信,通过遵循这种方法,我们最终将能够制造出能够思维的机器。

AIGen